ابداع روش هایی برای فرار از قوانین ایمنی هوش مصنوعیمحققان راه فرارهایی یافته اند تا چت بات های هوش مصنوعی را وادار کنند با دور زدن اقدامات محافظتی محتوای مخرب تولید کنند. - به گزارش خبرگزاری مهر به نقل از نشریه هیل، تحقیق جدید دانشگاه کارنگی ملون روش های جدیدی را برای دور زدن پروتکل های ایمنی نشان می دهد. براساس این پژوهش جلوگیری از ایجاد محتوای مخرب چت بات های هوش مصنوعی ممکن است دشوارتر از آنچه در تصورات اولیه است، باشد. سرویس های مشهور هوش مصنوعی مانند ChatGPT و Bard از محتوای ورودی کاربر برای تولید پاسخ های مفید از تولید متون و ایده ها گرفته تا کل نوشته ها، استفاده می کنند. این سرویس ها دارای پروتکل های ایمنی هستند که از ایجاد محتوای مخرب مانند مطالب توهین آمیز یا مجرمانه توسط ربات ها جلوگیری می کند. در این میان برخی از محققان کنجکاو راه فرار یا jaileak را کشف کرده اند که در حقیقت یک دستگاه کادربندی است که هوش مصنوعی را فریب می دهد تا از پروتکل های ایمنی آن اجتناب کند. البته توسعه دهندگان نرم افراز به راحتی می توانند این شکاف ها را ترمیم کنند. یک راه فرار مشهور در این زمینه، درخواست از ربات برای پاسخ دادن به یک سوال ممنوع بود. این سوال مانند داستانی است که از طرف مادر بزرگ کاربر، بیان می شود. برچسب ها: |
آخرین اخبار سرویس: |